Guías y Protocolos

Protección de Derechos Humanos en Sistemas de IA para Contra-Terrorismo: Análisis Jurídico IRAC de la Posición de la ONU (Diciembre 2025)

PorRicardo Scarpa

Análisis Jurídico: Inteligencia Artificial, Derechos Humanos y Contraterrorismo

Resumen Ejecutivo

El documento de posición del Relator Especial de la ONU sobre la Promoción y Protección de Derechos Humanos mientras se Contraresta el Terrorismo (diciembre 2025) plantea interrogantes jurídicos fundamentales sobre la compatibilidad de los sistemas de IA en operaciones antiterroristas con las obligaciones internacionales de derechos humanos. Este análisis examina, mediante la metodología IRAC, cuatro cuestiones jurídicas críticas que emergen de este instrumento.


I. PRIVACIDAD Y PROTECCIÓN DE DATOS EN VIGILANCIA MASIVA CON IA

Cuestión Jurídica (Issue)

¿Son compatibles con el derecho a la privacidad consagrado en tratados internacionales de derechos humanos los sistemas de IA que permiten vigilancia masiva diferenciada de poblaciones en contextos de contraterrorismo?

Norma Aplicable (Rule)

Normativa Internacional de Referencia

El derecho a la privacidad constituye un derecho fundamental protegido por múltiples instrumentos:

  • Art. 17 Pacto Internacional de Derechos Civiles y Políticos (PIDCP): Consagra la protección contra injerencias arbitrarias en la vida privada
  • Art. 8 Convenio Europeo de Derechos Humanos (CEDH): Garantiza el derecho al respeto de la vida privada y familiar
  • Resolución 45/95 Asamblea General ONU: Reconoce el derecho a la privacidad como derecho humano inalienable

Jurisprudencia Consolidada

El Tribunal Europeo de Derechos Humanos ha establecido en Big Brother Watch y otros c. Reino Unido (2021) que:

  1. La vigilancia en masa requiere base legal precisa y necesaria
  2. Las "selectores" de búsqueda deben justificarse individualmente como necesarias y proporcionales
  3. Debe existir supervisión independiente "end-to-end" en cada fase del proceso

El Comité de Derechos Humanos de la ONU ha afirmado (Observación General n.º 16, párr. 8) que cualquier restricción al derecho a la privacidad debe cumplir tres requisitos cumulativos:

  • Legalidad: Base legal clara, accesible y previsible
  • Necesidad: Persecución de objetivo legítimo de seguridad
  • Proporcionalidad: Equilibrio entre seguridad y privacidad

Soft Law Relevante

El documento de posición de la ONU establece que sistemas de IA que analicen datos masivos mediante machine learning pueden:

  • Permitir inferencias sobre patrones de comportamiento imperceptibles al análisis humano (párr. 21)
  • Generar efectos de "ingeniería social" mediante monitoreo continuo
  • Intensificar violaciones históricas de privacidad mediante amplificación de vigilancia

Aplicación del Derecho (Application)

Subsunción de Hechos en Supuestos Normativos

El documento de la ONU identifica el siguiente supuesto de hecho:

"AI can process millions of data points simultaneously, identifying correlations and behavioural patterns that may elude human analysts... creating unprecedented opportunities for monitoring citizens' political opinions, associations, and ideological leanings." (párr. 1.6)

Análisis de compatibilidad:

  1. Exigencia de legalidad: Aunque muchos estados han legislado sobre vigilancia electrónica, el documento evidencia que:

    • No existe "autorización legal clara y específica" para sistemas de IA en vigilancia masiva (párr. Recomendación 16)
    • Las autoridades frecuentemente actúan bajo poderes amplios de "seguridad nacional"
    • Falta precisión en los "selectores" utilizados por máquinas
  2. Necesidad y proporcionalidad: El test de proporcionalidad requiere:

    • Idoneidad: ¿Logra efectivamente prevenir terrorismo? La evidencia empírica es limitada (párr. 2)
    • Necesidad: ¿Existen medios menos invasivos? El documento sugiere que sí (párr. 11)
    • Proporcionalidad stricto sensu: ¿El beneficio en seguridad justifica la intrusión?
      • Datos: El documento destaca que "the number of actual terrorists in most populations is very small, serious dataset limitations can prevent meaningful extrapolation" (párr. 2)
      • Riesgo de falsos positivos masivos
  3. Intensificación del daño: La aplicación de IA a datos previos de vigilancia:

    • Amplifica violaciones pretéritas (históricamente desproporcionadas en minorías)
    • Crea "efecto sombra": autocensura preventiva (párr. 6)
    • Viola principio de minimización de datos

Análisis de Excepciones

No aplican excepciones válidas bajo derecho internacional:

  • Estados de excepción (Art. 4 PIDCP) requieren amenaza a la vida de la nación, no terrorismo ordinario
  • La proporcionalidad es análisis per se, no relativo a amenaza percibida

Conclusión (Conclusion)

Conclusión: Los sistemas de IA para vigilancia masiva en contextos antiterroristas son presumiblemente incompatibles con obligaciones internacionales de derechos humanos, a menos que cumplan conjuntamente:

  1. Base legal específica y accesible que identifique:

    • Categorías de "selectores" autorizadas
    • Justificación individual de cada selector como necesario y proporcional
  2. Supervisión independiente en "cascada":

    • Autorización judicial prospectiva
    • Supervisión continua durante operación
    • Revisión ex post facto de efectividad
  3. Prohibición de vigilancia masiva indiferenciada

Recomendación operativa: Estados deben derogar marcos amplios de "seguridad nacional" y implementar leyes específicas que vinculen cada operación de IA a amenazas verificables.


II. NO DISCRIMINACIÓN EN SISTEMAS DE RECONOCIMIENTO FACIAL Y BIOMETRÍA

Cuestión Jurídica (Issue)

¿Pueden sistemas de reconocimiento facial y biometría entrenados con datasets sesgados cumplir con garantías constitucionales e internacionales de igualdad y no discriminación cuando son desplegados en operaciones de identificación en contextos de seguridad?

Norma Aplicable (Rule)

Obligaciones Internacionales de No Discriminación

  • Art. 2 PIDCP + Art. 26: Prohíbe discriminación basada en "raza, color, sexo, idioma, religión, opinión política u otra condición social"
  • Art. 14 CEDH: Garantiza el goce de derechos "sin distinción alguna por razón de sexo, raza, color, lengua, religión..."
  • Convención Internacional sobre Eliminación de todas las Formas de Discriminación Racial (CERD): Art. 2.1.a) obligación de eliminación de prácticas discriminatorias

Jurisprudencia de Tribunales Internacionales

El Comité para la Eliminación de la Discriminación Racial (CERD) en su Recomendación General n.º 36 (2020) establece que:

"Before procuring or deploying such systems States should adopt appropriate legislative, administrative and other measures to determine the purpose of their use and to regulate as accurately as possible the parameters and guarantees that prevent breaches of human rights. When the results of an assessment of a technology indicate a high risk of discrimination or other human rights violations, States should take measures to avoid the use of such a technology."

El TJUE en jurisprudencia sobre algoritmos discriminatorios afirma que:

  • Algoritmos neutros "en apariencia" pueden producir discriminación indirecta
  • Los desarrolladores son responsables de auditar datasets para sesgos

Marco Normativo Específico

El Reglamento de IA de la UE (2024/1689) Art. 10 establece que:

  • Datos de entrenamiento deben ser "representativos, imparciales y de alta calidad"
  • Deben identificarse y documentarse sesgos conocidos
  • Los efectos discriminatorios requieren mitigación antes del despliegue

Aplicación del Derecho (Application)

Caracterización del Problema de Sesgo

El documento de la ONU documenta:

"Empirical studies have demonstrated disproportionate error rates across demographic groups, particularly affecting individuals with darker skin tones, women and marginalised communities... such disparities stem from the continued reliance by developers on unrepresentative training datasets and the continued reinforcement of the underlying algorithmic architectures that perpetuate systemic inequities." (párr. 3)

Análisis jurídico del sesgo:

  1. Naturaleza discriminatoria:

    • Los errores no son aleatorios sino sistemáticos y predecibles
    • Afectan desproporcionadamente a grupos protegidos
    • Cumplen definición de discriminación indirecta
  2. Atribución de responsabilidad:

    • Desarrolladores: Responsabilidad por diseño deficiente (Art. 10 RIA)
    • Estados desplegadores: Responsabilidad por adquisición y uso negligente
    • Ambos: Responsabilidad conjunta por negligencia en auditoría
  3. Violación del test de proporcionalidad:

    • Idoneidad: Un sistema con tasas de error desiguales NO es idóneo
    • Necesidad: Existen tecnologías menos sesgadas (reconocimiento multimodal)
    • Proporcionalidad: No puede justificarse su uso en poblaciones minoritarias

Casos de Aplicación Específica

El documento describe:

a) Myanmar: Creación de sistema biométrico integrado nacional "para combatir crimen y proteger seguridad nacional" (párr. 2) → Riesgo de:

  • Perfilado étnico de minorías rohinyá
  • Uso para represión política discriminatoria

b) Frontera estadounidense: Desigualdades documentadas en reconocimiento facial (US Commission on Civil Rights, 2024)

  • Tasas de error del 34.7% en mujeres afroamericanas vs. 0.8% en hombres caucásicos
  • Uso sistemático en detención de migrantes

Responsabilidad Corporativa

Bajo los Principios Rectores de la ONU sobre Empresas y DDHH:

  • Empresas tienen obligación de diligencia debida en DDHH
  • Deben evaluar impacto diferencial en grupos vulnerables
  • No pueden invocar "incertidumbre técnica" como excusa de inacción

Conclusión (Conclusion)

Conclusión: Sistemas de reconocimiento facial y biometría con tasas de error desiguales violan obligaciones internacionales de no discriminación y generan responsabilidad internacional del estado que los despliega, especialmente cuando:

  1. No se ha auditado el dataset para sesgos
  2. No se implementan medidas de mitigación
  3. Se despliegan en contextos donde afectan derechos fundamentales
  4. Se aplican a poblaciones históricamente discriminadas

Recomendación operativa:

  • Prohibición de despliegue hasta auditoría independiente que demuestre paridad de errores
  • Implementación de Art. 29.3 RIA: obligación de "evaluaciones de impacto de derechos fundamentales"
  • Responsabilidad civil por daños causados por discriminación algorítmica

III. LIBERTAD DE EXPRESIÓN Y MODERACIÓN DE CONTENIDOS EN LÍNEA

Cuestión Jurídica (Issue)

¿Pueden sistemas de IA para moderar contenido considerado "terrorista" en línea cumplir con garantías constitucionales e internacionales de libertad de expresión cuando operan sin supervisión humana de contexto cultural e intencionalidad del autor?

Norma Aplicable (Rule)

Protección Internacional de Libertad de Expresión

  • Art. 19 PIDCP: "Toda persona tiene derecho a la libertad de expresión" con restricciones SOLO si son "prescriptas por la ley" y "necesarias para... el respeto de los derechos ajenos"
  • Art. 10 CEDH: Similar, reconociendo excepciones muy limitadas

Test de Restricción Válida (Jurisprudencia CEDH)

Conforme a Lingens c. Austria (1986) y posteriores, una restricción es válida SÍ:

  1. Legality (Legalidad): Base legal clara, accesible, previsible
  2. Legitimate Aim (Fin Legítimo): Seguridad pública, protección de derechos (Art. 10.2 CEDH)
  3. Necessity in a Democratic Society: Proporcionada, no excesiva, responde a necesidad apremiante

Jurisprudencia sobre Incitación al Terrorismo

El Comité de Derechos Humanos de la ONU y el Relator Especial sobre Libertad de Expresión han establecido:

"Incitement requires intent and high probability of harm. Mere criticism, even if harsh, of counter-terrorism policies does not constitute incitement." (Special Rapporteur on Freedom of Expression, A/80/341)

La Orden de Rabat (2012) sobre discurso de odio establece seis elementos cumulativos para restricción válida:

  1. Contexto y circunstancias
  2. Posición pública del hablante
  3. Audiencia destinataria
  4. Naturaleza y alcance de la expresión
  5. Intención del hablante
  6. Probabilidad actual de incitación a violencia

Limitaciones de Sistemas Automatizados

El documento de la ONU reconoce:

"Automated content moderation systems... are ill-suited to detecting and moderating implicit terrorist or violent extremist content online, namely content that 'conveys harmful messages through coded language, irony, humour, or cultural references'... algorithms have even amplified harmful content to maximise user engagement." (párr. 11)

Aplicación del Derecho (Application)

Problemas de Moderación Automatizada

  1. Incapacidad para evaluar elementos requeridos:

    • Intención: Los algoritmos no pueden acceder a intención del autor
    • Contexto: No entienden ironía, sátira, referencias culturales
    • Probabilidad de incitación: Test probabilístico que requiere análisis humano
  2. Ejemplos documentados de sobre-moderación:

El documento ilustra:

"Staff and resources devoted to moderation have been scaled down by major online platforms since 2022... investment in AI moderation has expanded, along with reliance on unreliable 'community' or crowd-sourced approaches." (párr. 11)

Implicación jurídica:

  • Plataformas prioriza eficiencia sobre precisión
  • Genera remociones de contenido legítimo
  • Viola Art. 19 PIDCP
  1. Análisis diferenciado por contexto:

En situaciones de:

  • Conflicto activo: Riesgo de censura de crítica legítima a estados
  • Regímenes autoritarios: "Terrorismo" empleado como categoría de represión
  • Minorías marginalizadas: Expresión de minorías etno-religiosas interpretada como "extremismo"

Diferencia de Estándares Aplicables

ContextoEstándar RequeridoCapacidad de IAResultado
Moderación en línea comúnLegality, NecessityParcial (contexto)INSUFICIENTE
Moderación "terrorismo"Orden de Rabat (6 elementos) + Probabilidad actualMínima (intención, contexto)INADECUADA

Obligaciones de Estados y Plataformas

Conforme a Observaciones Generales del Comité de DDHH:

Estados deben:

  1. Garantizar definición legal precisa de "incitación al terrorismo"
  2. Exigir supervisión humana de contenido removido
  3. Prohibir censura discriminatoria contra minorías
  4. Garantizar recurso efectivo contra remociones

Plataformas deben:

  1. Publicar criterios de moderación
  2. Proporcionar moderación humana significativa
  3. Publicar reports de transparencia
  4. Permitir apelación efectiva

Conclusión (Conclusion)

Conclusión: Sistemas de IA para moderación de "contenido terrorista" violan obligaciones de libertad de expresión cuando:

  1. Operan sin supervisión humana de intención y contexto
  2. No aplican test de Orden de Rabat (6 elementos cumulativos)
  3. Generan tasas altas de "falsos positivos" documentados
  4. Carecen de mecanismos de apelación significativos

Recomendación operativa:

  • Prohibición de moderación íntegramente automatizada en "contenido terrorista"
  • Exigencia de supervisor humano para toda remoción
  • Publicación de datos de: remociones, apelaciones acogidas, demografía de afectados
  • Responsabilidad de plataformas por daños de moderación negligente

Test recomendado (Párr. 17 Recomendaciones ONU):

"Expression may only be restricted... in accordance with the requirements of legality, necessity, proportionality and legitimate aim, consistent with articles 19 and 20(1) of the ICCPR"


IV. CONTROL HUMANO EN SISTEMAS AUTÓNOMOS MILITARES

Cuestión Jurídica (Issue)

¿Es compatible con principios de Derecho Internacional Humanitario (DIH) la delegación en sistemas de IA del control sobre decisiones de targeting militares que pueden resultar en muerte cuando el análisis final es computacional no verificable ("black box")?

Norma Aplicable (Rule)

Principios del DIH Aplicables

Según el Protocolo Adicional I a los Convenios de Ginebra (1977) y Derecho Consuetudinario:

Artículo 36 API: Todo estado debe examinar "las nuevas armas... para determinar si su empleo estaría prohibido en circunstancias concretas"

Principios fundamentales del DIH:

  1. Principio de Distinción (Art. 48 API): Ataques deben dirigirse contra objetivos militares, NO poblacion civil
  2. Principio de Proporcionalidad (Art. 51.5.b API): Daño incidental NO puede ser excesivo respecto ventaja militar
  3. Principio de Precaución (Art. 57 API): Tomar todas precauciones viables para minimizar daño civil

Jurisprudencia del ICRC

El International Committee of the Red Cross (ICRC) en su Submission to UN Secretary-General on AI in Military Domain (2025) afirma:

"Meaningful human control requires that humans understand and can explain the basis for AI system recommendations... [AI systems must not] replace human decision-makers... must be limited to supporting them" (párr. 131)

El ICRC distingue:

  • Lethal Autonomous Weapons Systems (LAWS): Sistema que identifica, selecciona y ataca objetivos SIN intervención humana
  • AI-Enabled Decision Support Systems (AI DSS): Sistema que proporciona análisis/recomendaciones que humano PUEDE rechazar

Marco de Responsabilidad

Bajo DIH:

  • Comandante militar: Responsable de cumplimiento DIH en operaciones
  • Responsabilidad por omisión: Fallo en supervisión de herramientas
  • Cadena de mando: Cada nivel debe comprender funcionamiento de sistemas

Aplicación del Derecho (Application)

Subsunción del Supuesto de Hecho

El documento describe:

"AI has reportedly been used in recent conflicts in military decision making and targeting processes, as in Gaza, Ukraine, Iraq, Syria and Yemen, although the specifics of particular technologies and the circumstances and parameters of their use often remain opaque." (párr. 10)

Casos documentados:

  • Sistema "Lavender" (Israel, 2024): IA que identifica objetivos, con tasa de error documentada
  • Sistemas de "deep sensing" que generan "real-time threat assessments"

Análisis de Cumplimiento con DIH

  1. Principio de Distinción:
RequisitoIA DSS puede cumplir?Problema
Clasificación civil/militarSí (análisis datos)¿Pero cómo verifica comandante?
Identificación positivaParcialAnálisis probabilístico, no verificación
Exclusión de civilesNo siempreDatos incompletos, falsos positivos

Análisis crítico: Sistema de IA que clasifica a personas como "terroristas" con probabilidad X% NO es equivalente a "identificación positiva" requerida por DIH.

  1. Principio de Proporcionalidad:

El principio requiere que comandante compare:

  • Ventaja militar anticipada (destruir combatiente/infraestructura)
  • Daño civil esperado (civiles en zona)

Problema con IA:

  • Sistemas de IA generan "threat scores" probabilísticos, no determinísticos
  • El documento evidencia: "AI systems may lack adequate human control and analysis, resulting in over-reliance on automated decision-making lacking in nuance, context and responsiveness to human rights considerations" (Introducción)
  • Comandante puede sufrir "automation bias": tendencia a deferir a máquina
  1. Principio de Precaución:

API 57 requiere:

  • Precauciones viables para verificar objetivo
  • Precauciones viables para minimizar daño civil
  • Abstención si civiles están presentes

Análisis: Automatización puede REDUCIR precauciones:

  • Menos tiempo de verificación humana
  • Mayor velocidad = menor análisis contextual
  • Riesgo de cadena de errores (garbage in, garbage out)

Cuestión de Accountability

Vacío crítico de responsabilidad:

Cuando AI DSS causa muerte de civiles por error de clasificación:

  • ¿Responsable = programador del algoritmo?

    • Problema: No conoce contexto operacional real
  • ¿Responsable = comandante que autorizó uso?

    • Problema: Si no entiende funcionamiento, ¿puede ser responsable?
    • Precedente penal: "obediencia a órdenes de máquina" no excusa
  • ¿Responsable = estado que adquirió sistema?

    • Problema: Proveedores privados frecuentemente niegan transparencia por "secretos comerciales"

El documento afirma:

"The deployment of AI-enabled systems has raised particular challenges for the attribution of responsibility and accountability in relation to violations of IHL and human rights law" (párr. 10)

Test de "Meaningful Human Control"

El ICRC propone test de tres elementos:

  1. Understandability: Humano entiende cómo sistema llega a recomendación

    • IA en contexto: Sistemas de deep learning = "black box"
    • Resultado: INSUFICIENTE
  2. Capacity for Intervention: Humano tiene tiempo/capacidad para rechazar

    • IA en contexto: Sistemas de "real-time targeting" NO permiten deliberación
    • Resultado: INSUFICIENTE
  3. Responsibility: Cadena de mando clara sobre decisión final

    • IA en contexto: Opacidad sobre roles
    • Resultado: INSUFICIENTE

Conclusión (Conclusion)

Conclusión: Sistemas de IA para targeting militar no cumplen con requisitos mínimos de DIH cuando:

  1. No son "understandable" (arquitectura de black box)
  2. No permiten "meaningful human control" (velocidad de operación)
  3. Generan responsabilidad "dispersa" sin atribución clara

Estándares requeridos (conforme ICRC):

  • PROHIBICIÓN: Sistemas que toman decisión final de atacar sin intervención humana verificable
  • PERMISIBLE CON CONDICIONES: AI DSS si:
    • Sistema diseñado para máxima transparencia ("explainable AI")
    • Protocolo que requiere verificación humana de cada recomendación crítica
    • Comandante entrenado en funcionamiento y limitaciones
    • Responsabilidad explícita asignada a persona identificada

Recomendación operativa (Párr. 30-31 Recomendaciones ONU):

"States should urgently negotiate by 2026 a treaty regulating autonomous weapons systems... to ensure effective human supervision and timely intervention and deactivation"


V. SÍNTESIS COMPARATIVA: ESTADO DE LA REGULACIÓN

Cumplimiento de Obligaciones Internacionales

DerechoVigilancia IABiometría SesgadaModeración AutomáticaTargeting Militar
Privacidad❌ INCUMPLEN/A⚠️ PARCIAL❌ INCUMPLE
No Discriminación❌ INCUMPLE❌ INCUMPLE⚠️ PARCIAL❌ INCUMPLE
Libertad ExpresiónN/AN/A❌ INCUMPLEN/A
Debido Proceso❌ INCUMPLE❌ INCUMPLEN/A❌ INCUMPLE
DIHN/AN/AN/A❌ INCUMPLE

Factores de Riesgo Transversales

  1. Opacidad de Datos: Datasets de entrenamiento no auditados
  2. Falta de Supervisión: Reducción de personal humano ("cost-cutting")
  3. Excepciones de Seguridad: Legislación de "seguridad nacional" elude regulación
  4. Responsabilidad Dispersa: Múltiples actores, ninguno claramente responsable
  5. Velocidad de Adopción: Regulación "lag" - tecnología avanza más rápido que derecho

Brechas Normativas Críticas

Identificadas en documento ONU:

  1. Falta de "autorización legal específica" para IA en contraterrorismo

    • Normativa existente (RGPD, leyes de vigilancia) es anterior a IA
    • No contemplan particularidades de ML, algoritmos opacos
  2. Ausencia de Auditoría Independiente

    • Estados rara vez publican evaluaciones de DDHH de sistemas IA
    • Proveedores privados niegan transparencia
  3. Deficiencia en Supervisión

    • Órganos independientes de control son débiles
    • "Oversight bodies must have guaranteed independence, sufficient human, financial and technical resources" (Párr. 25 Recomendaciones)
  4. Inexistencia de Responsabilidad Corporativa

    • Empresas desarrolladoras evaden responsabilidad por impacto
    • Gobiernos compran sistemas sin diligencia debida en DDHH

VI. CONCLUSIÓN GENERAL Y RECOMENDACIONES

Síntesis Jurídica

El análisis IRAC de cuatro cuestiones centrales revela que sistemas de IA desplegados en operaciones antiterroristas generan violaciones masivas y sistemáticas de derechos humanos internacionalmente protegidos, particularmente:

  • Derecho a la privacidad: Vigilancia masiva sin límites claros
  • Derecho a no ser discriminado: Sistemas sesgados afectan minorías desproporcionadamente
  • Libertad de expresión: Moderación automática censura legítima crítica
  • Derecho al debido proceso: Falta de transparencia impide defensa efectiva
  • Cumplimiento DIH: Targeting automático viola principios de distinción y proporcionalidad

Causa Raíz

Regulación "Lag":

El documento enfatiza que existe "una brecha real y creciente entre el despliegue de tecnologías y la capacidad de regulación" (Introducción). La arquitectura legal internacional de derechos humanos presupone agencia humana, no sistemas autónomos que operan sin intermediación comprensible.

Estándares Mínimos Requeridos

Conforme a jurisprudencia internacional y soft law, cualquier sistema de IA en contextos de seguridad/contraterrorismo debe cumplir:

  1. Base Legal Específica (Art. 36 API, Legalidad CEDH)

    • No basta normativa general de "seguridad nacional"
    • Debe especificar qué IA, en qué contextos, con qué controles
  2. Evaluación de DDHH Previa (Art. 14 AI Act UE, Soft Law ONU)

    • Análisis de impacto diferencial en grupos vulnerables
    • Identificación de riesgos antes de despliegue
  3. Supervisión Humana Efectiva (Art. 14 AI Act, ICRC Recommendations)

    • "Meaningful human control" - no simulado
    • Tiempo y capacidad de rechazar recomendaciones
  4. Transparencia Algorítmica (Art. 22 RGPD, Art. 3.4 CEDH)

    • Explicabilidad de decisiones
    • Acceso a datos de entrenamiento para auditoría
    • Excepciones limitadas a "secretos comerciales"
  5. Mecanismos de Recurso (Art. 13 PIDCP)

    • Derecho a impugnar decisiones automatizadas
    • Acceso a representación legal
    • Compensación por daños
  6. Prohibiciones Categoriales (Art. 5 AI Act, ONU Recomendación 3)

    • Sistema de scoring único basado en perfilado = PROHIBIDO
    • Reconocimiento facial en tiempo real sin supervisión = PROHIBIDO
    • Targeting completamente automático = PROHIBIDO

Recomendaciones de Política Pública

Para Estados:

  1. Derogar marcos amplios de "seguridad nacional" que exempen IA de regulación
  2. Adoptar legislación específica vinculando cada operación de IA a amenazas verificables
  3. Constituir órganos independientes de supervisión con poder de veto
  4. Requerir auditoría independiente antes de despliegue
  5. Implementar responsabilidad personal (no corporativa) de funcionarios que autorizan IA

Para Sector Privado:

  1. Conducir auditorías de sesgo en datasets antes de venta
  2. Documentar limitaciones conocidas de sistemas
  3. Negarse a vender sistemas con alto riesgo de violaciones
  4. Divulgar algoritmos a auditores independientes (licencias confidenciales)
  5. Implementar responsabilidad de producto (recall de sistemas defectuosos)

Para Comunidad Internacional:

  1. Tratado vinculante sobre armas autónomas (2026, conforme propuesta ICRC)
  2. Protocolo de DDHH específico para IA en seguridad
  3. Estándares de auditoría independiente
  4. Fondo de compensación para víctimas de violaciones IA-mediadas

Referencias Jurídicas Clave

Instrumentos Internacionales Citados

  • Pacto Internacional de Derechos Civiles y Políticos (PIDCP), 1966
  • Protocolo Adicional I a los Convenios de Ginebra, 1977
  • Convención Europea de Derechos Humanos (CEDH), 1950
  • Convención Internacional sobre Eliminación de todas las Formas de Discriminación Racial (CERD), 1965

Jurisprudencia de Referencia

  • Tribunal Europeo de Derechos Humanos: Big Brother Watch y otros c. Reino Unido (2021), Lingens c. Austria (1986)
  • Comité de Derechos Humanos ONU: Observaciones Generales n.º 16, 27, 36
  • ICRC: Submission to UN Secretary-General on AI in Military Domain (2025)

Regulación Vigente

  • Reglamento de la UE 2024/1689 sobre Inteligencia Artificial
  • Reglamento General de Protección de Datos (RGPD), 2018
  • Marco de Convención del Consejo de Europa sobre IA y DDHH (2024)
  • Global Digital Compact, Asamblea General ONU (2024)

Documento Analizado

  • UN Special Rapporteur on the Promotion and Protection of Human Rights and Fundamental Freedoms while Countering Terrorism, "Protecting Human Rights while Using Artificial Intelligence to Counter Terrorism: Position Paper," December 2025

Conclusión Final

El documento de posición de la ONU de diciembre 2025 representa un hito crítico en la convergencia de derecho de la seguridad y derecho de derechos humanos. Su análisis sistemático demuestra que la regulación actual es insuficiente para proteger derechos fundamentales ante sistemas de IA en contextos de contraterrorismo.

La urgencia es máxima: Estados continúan desplegando estos sistemas sin base legal específica, auditoría de DDHH, o supervisión independiente. La jurisprudencia internacional establece estándares claros. Lo que falta es voluntad política de implementación.

Prospectiva jurídica: Cabe esperar que:

  1. Primeras sentencias condenatorias de estados por violaciones IA-mediadas (TJUE, CEDH) 2026-2027
  2. Obligaciones de reparación masivas por vigilancia sin base legal
  3. Presión regulatoria acelerada conforme víctimas demanden
  4. Reforma de normativa de defensa para incluir auditoría de DDHH en adquisición de sistemas

El derecho existe. Lo que falta es su aplicación.


Artículos relacionados

Amparo Directo 6/2025: IA y Derechos de Autor en México

jurisprudencia

Análisis jurídico de la sentencia de la SCJN que rechaza la protección de obras creadas por inteligencia artificial. Estudio de las cuestiones de autoría, originalidad y dominio público bajo la LFDA.

Guía Esencial de Inteligencia Artificial para Jueces: Protocolos y Buenas Prácticas

recursos

Análisis jurídico completo sobre la implementación responsable de sistemas de IA en el sector judicial. Protocolos de cumplimiento normativo, evaluación de riesgos y salvaguardas para jueces.

Protección de Derechos Humanos en Sistemas de IA para Contra-Terrorismo: Análisis Jurídico IRAC de la Posición de la ONU (Diciembre 2025)

recursos

Análisis jurídico integral aplicando metodología IRAC a cuatro cuestiones fundamentales: vigilancia masiva con IA, no discriminación en biometría, libertad de expresión en moderación automática, y control humano en sistemas autónomos militares. Examen riguroso de conformidad con derecho internacional de derechos humanos, jurisprudencia de TEDH/TJUE y Derecho Internacional Humanitario. Documento de referencia para formulación de políticas públicas y regulación de IA en contextos de seguridad.

Big Brother Watch y otros c. Reino Unido (2021): Hito Jurisprudencial en Vigilancia Masiva, Privacidad y Control Judicial - Análisis Exhaustivo IRAC

jurisprudencia

Análisis jurisprudencial integral de la sentencia de la Gran Sala del TEDH que establece estándares de control en vigilancia masiva. Examen de los 5 issues principales, jurisprudencia consolidada, implicaciones para sistemas de IA, y recepción posterior. Referencia obligatoria para regulación de vigilancia electrónica.